La leggenda di Moore
Nota di approfondimento al capitolo 26
di Lumanità dellinternet
E anche ai capitoli 16 e 19 di Il potere della stupidità
Giancarlo Livraghi
gian@gandalf.it
luglio 2001
La cosiddetta legge di Moore non è una legge. Cioè non è un principio scientifico che sia stato enunciato come tale o che abbia conferma nellosservazione dei fenomeni.
È una delle tante affermazioni che circolano (sullinformatica come in altre materie) trattate universalmente come verità rivelata e continuamente ripetute senza verificarne lattendibilità. E per di più interpretate in vari modi che nulla hanno a che fare con il loro reale significato.
Ci sono state, e ancora ci sono, parecchie distorsioni di questo genere anche per quanto riguarda linternet. Come, per esempio, la leggenda della crescita esponenziale e la diffusione di uninfinità di dati immaginari, poco attendibili o male interpretati.
Vedi Verifica su alcune proiezioni a proposito dellinternet.Laffermazione di Gordon Moore (che risale al 1964) era, probabilmente, ragionevole ma non era quella di cui oggi si parla (la velocità dei processori raddoppia ogni due anni). Lanalisi dei fatti non dimostra che ciò che accadeva nel 1962-1964 sia continuato negli anni seguenti. Inoltre alle parole di Moore si sono attribuiti significati e conseguenze che non hanno mai avuto. Insomma più che di una legge si tratta di una leggenda.
Il concetto di quellaffermazione, nel modo semplificato in cui si è diffuso e continuamente ripetuto, è tuttaltro che chiaro. Come vedremo poco più avanti, non è semplice definire che cosa si intende per velocità o potenza quindi quale sia lunità di misura con cui definire il presunto raddoppio.
Inoltre limmaginaria legge (che è diversa dallosservazione di Moore) si è rivelata falsa. Se nel 1964 si poteva parlare (forse) di raddoppio ogni 12 mesi... poi si è detto 18... ora si è passati a di 24 o forse 30. Badando poco a quanto le affermazioni possano riflettere qualche significativa realtà.
Ma anche così laumento possibile di velocità dei processori non corrisponde a reali esigenze della stragrande maggioranza degli utenti. In un mercato ragionevole avere prezzi più bassi a parità di prestazioni (anziché macchine più potenti allo stesso prezzo) potrebbe favorire la diffusione dei computer in quelle categorie che oggi non se li possono permettere (miliardi di persone nel mondo milioni in Italia). E anche di evitare spese inutili a chi se lo può permettere ma non per questo deve spendere male i suoi soldi.
Inoltre... un computer con capacità comunque molto superiori a ciò ci cui abbiamo realmente bisogno dovrebbe poter durare dieci o ventanni o forse più (sempre che sia sufficientemente robusto e affidabile in tutte le sue componenti). Invece si continuano a sovraccaricare funzioni, spesso inutili, per creare unaltrettanto inutile esigenza di maggiore velocità di calcolo (reale o presunta) e così forzare continui quanto insensati aggiornamenti di software e hardware.
Ovviamente non si tratta solo di processori. Se ventanni fa con 64 kilobyte di memoria (Ram) avevamo macchine efficienti e dieci anni fa 640 k sembravano fin troppi oggi ci sono software paurosamente inefficienti (o intenzionalmente e perversamente concepiti per consumare troppo) che rendono lento un personal computer con 64 megabyte di memoria. E considerazioni analoghe si potrebbero fare su altre componenti e funzioni.
In sostanza, è vero che la tecnologia può produrre sistemi di elaborazione sempre più veloci. Ma è falso che a ciò derivi necessariamente lobbligo di mettere fuori uso macchine ancora efficienti solo perché esistono sul mercato nuovi prodotti con una potenza superiore.
Oltre alla falsificazione di mercato (obsolescenza forzata) ci sono anche falsificazioni culturali; perché dallinesistente o male interpretata legge di Moore si traggono conseguenze che nulla hanno a che fare con quel concetto come ipotetiche (e irreali) velocità di evoluzione di comportamenti umani e fenomeni sociali, culturali ed economici.
A questo proposito mi sembra interessante citare un articolo di Lucio Bragagnolo pubblicato nellaprile 2001.
Concepita nel 1964, accompagnerà linformatica
più o meno fino al 2017Unintuizione lungimirante
ma una legge immaginariadi Lucio Bragagnolo lux@mac.com
Ogni diciotto mesi, si dice, la velocità dei processori raddoppia. Concepita nel 1964, questa affermazione accompagna linformatica da più di trentacinque anni e continuerà a farlo, secondo il suo autore, fino al 2017. Ma il concetto è molto cambiato lungo il percorso. Era nato come unintuizione lungimirante oggi è più che altro una speculazione commerciale.
Tutti conosciamo lo stereotipo della signora piacente ma non più giovanissima che per civetteria toglie qualche anno alla propria età. Nellinformatica esiste invece un principio che, sempre per civetteria, si aggiunge mesi. È la cosiddetta legge di Moore, spesso citata per ricordare che «la potenza dei microprocessori raddoppia ogni diciotto mesi». Non è così. Di fatto la legge di Moore, intuizione straordinaria per longevità, è diversa da come la si racconta oggi e ha beneficiato durante la sua vita, come altre signore, di diversi lifting.
Fu Gordon Moore, ingegnere elettronico cofondatore di Intel, a osservare nel 1964 che la tecnologia permetteva di raddoppiare ogni dodici mesi il numero di transistor per pollice quadrato presenti su un chip.
Losservazione era puramente empirica e, racconta Moore stesso, non pretendeva di diventare una vera e propria regola; non pareva possibile che la corsa al raddoppio potesse continuare indefinitamente. Invece, con sorpresa di molti scettici, continuò, e la neonata legge di Moore diventò uno dei cavalli di battaglia della penetrazione dellinformatica nelle aziende e poi nelle case.
La velocità strumento commerciale
La legge rappresentava un eccellente strumento di propaganda e di vendita. Così, quando la crescita delle densità cominciò a rallentare, gli addetti alla comunicazione pubblicitaria e commerciale iniziarono ad addomesticare lalegge, stiracchiando il numero di mesi necessario al raddoppio. E iniziò il mito della velocità come fatto dipendente dai megahertz del processore: era più facile vendere megahertz che densità dei transistor per pollice quadrato.
Alla fine, e ai giorni nostri, questa vulgata ha sostituito il concetto originale, empirico ma certamente più scientifico e serio di quello attuale. Lintuizione di Gordon Moore è stata stravolta ed è diventata il condimento di articoli e campagne pubblicitarie.
Una delle campagne menzognere fu quella dellIntel che spese parecchi miliardi in pubblicità nel tentativo di far credere che occorresse un Pentium 3 per collegarsi allinternet così fra laltro scoraggiando molti che avrebbero potuto tranquillamente collegarsi con le macchine che avevano ma erano confusi da panzane come queste (diffuse anche da altri che avevano interesse a vendere nuovi computer). Affermazioni analoghe, e non meno sbagliate, sono state (e ancora sono) ripetute largamente sulla stampa di categoria e generale come dalla televisione e da altri mass media (n.d.r.).
Cpu da trentacinque terahertz
La velocità non è uguale ai megahertz e questi ultimi non sono mai raddoppiati ogni diciotto mesi. Una calcolatrice scientifica o un buon foglio di calcolo mostrano che dal 1962 (anno da cui partono le statistiche di Moore) a fine 2000 sono passati venticinque (virgola tre) periodi di diciotto mesi. Raddoppiando un megahertz per venticinque volte si arriva a 35.184.372.088.832 hertz: sono trentacinque terahertz, ossia un valore trentacinquemila volte superiore ai clock delle Cpu di oggi. Un processore capace di calcolare con questa frequenza mostruosa porrebbe, in piccolo, gli stessi problemi di dispersione di calore di una centrale nucleare.
La spiegazione di questo divario tra aspettative e risultati è semplice: laumentare della densità dei transistor sulla superficie del chip non incide sempre e solo sui megahertz. Qualche volta incide sui costi di produzione, perché un chip più affollato è più piccolo e quindi richiede meno silicio. A volte incide sul consumo energetico, perché permette di realizzare processori meno affamati di energia. Certi raddoppi della legge di Moore sono andati in riduzioni di costo e di consumi, più che aumenti di velocità.
Un interessante dettaglio tecnico è che non sempre la miniaturizzazione (concetto alla base dellaffermazione originaria di Moore) rappresenta un progresso. Alcune evoluzioni recenti portano alla progettazione e produzione di processori un po meno piccoli a parità di potenza quindi di fabbricazione meno delicata e perciò più affidabili e meno costosi (n.d.r.).
La velocità che sfugge
Che cosè allora la velocità pura di un processore? Difficile dirlo con semplicità. Cè chi la esprime in Mips (milioni di istruzioni per secondo), senza considerare che le istruzioni eseguite possono essere più o meno complesse: il vantaggio dei processori Motorola PowerPC sui processori Intel Pentium dipende esattamente dal confronto tra istruzioni molto potenti, ma eseguite lentamente, contro istruzioni elementari elaborate con estrema rapidità. Oppure si possono prendere in esame le velocità di calcolo di numeri interi oppure di numeri in virgola mobile, cioè con decimali (gigaflop). Di fatto, però, se intorno a un processore potente cè unarchitettura di bassa qualità o un disco rigido poco efficiente, il risultato finale non rispecchierà le potenzialità del processore.
Tornando alla legge di Moore, secondo il suo stesso scopritore potrebbe rimanere valida per unaltra ventina di anni. Nel 2017 circa verranno raggiunti i limiti fisici delle attuali tecnologie. Per proseguire ulteriormente nei raddoppi bisognerà inventare qualcosaltro, come i chip biologici, o quelli a effetto quantico, oggi poco più che esperimenti promettenti.
O forse qualcuno inventerà qualche altro trucco per forzare continui cambiamenti di cui non cè alcun reale bisogno.
Indirizzi per approfondire http://webopedia.internet.com/TERM/M/Moores_Law.html La prima enunciazione della legge di Moore parlava di un raddoppio della densità dei transistor sui chip ogni dodici mesi. http://info.astrian.net/jargon/terms/m/Moore_s_Law.html Poi si iniziò a parlare di diciotto mesi per raddoppio. http://www.intel.com/intel/museum/25anniv/hof/moore.htm Le pagine del sito Intel dedicate a Gordon Moore si assestano su un raddoppio ogni diciotto-ventiquattro mesi. http://www.physics.udel.edu/wwwusers/watson/scen103/intel.html Qualcuno sostiene che ormai la legge viaggi verso i trenta mesi per raddoppio: un peggioramento del 150% sulla prima osservazione di Moore. http://developer.intel.com/update/archive/issue2/feature.htm Secondo il suo stesso autore, la legge di Moore potrebbe cessare di funzionare entro una ventina danni. |
Post Scriptum
Il 26 luglio 2001 questo testo è stato pubblicato anche su Punto Informatico, dove ha suscitato diversi commenti dei lettori. Mi sembra interessante citare questo, a firma di Jargon.
Un papiro trovato nel deserto del Nevada (cercando gli Ufo fuori dallArea 51), si è rivelato essere una nota interna Intel del 63 che pone le basi per lenunciazione della Legge di Moore.
Essa recitava:
«Gli acquirenti dei nostri processori non vorranno comprare un nuovo chip prima di minimo 5 anni dallultimo acquisto, noi (la Intel) vogliamo che ne comprino uno ogni 6 mesi. Occorre inventarsi una balla pseudo-scientifica per sostenere i nostri interessi in tal senso».
In sostanza, al contrario di quanto si desume dai vari articoli, credo che Moore non sia il povero scienziato frainteso da giornalisti e uomini del marketing, né tanto meno che sia stato strumentalizzato: è il co-fondatore della Intel, la sua legge empirica è pensata a tavolino per attirare attenzione su una tecnologia allepoca nuova e poco nota, e farci magari qualche billione di dollari. Cè riuscito.
Questa è una delle possibili interpretazioni del fenomeno. Ma che sia stato Gordon Moore a costruire intenzionalmente linganno, o altri a deformare le sue osservazioni il fatto rimane che persone e imprese in mezzo mondo hanno sprecato molti miliardi (di dollari) per innovazioni e aggiornamenti non solo inutili ma spesso nocivi. E la leggenda continua.
A questo proposito vedi anche
La preziosa legge di Murphy e la pseudo-legge di Moore
Capitolo 26
di Lumanità dellinternet
Indice dei capitoli
di Lumanità dellinternet